Loading...
机构名称:
¥ 1.0

在过去的几十年中,研究人员主要专注于提高模型的概括能力,而对调节这种概括的关注有限。然而,模块化对意外数据(例如有害或未经授权的数据)的能力可以被恶意对手以无法预见的方式利用,这可能导致违反模型伦理的行为。不可转移的学习(NTL)提议解决这些挑战,旨在重塑深度学习模型的一般能力。尽管在该领域提出了Nuber的方法,但仍缺乏对现有进展的全面审查,并且对当前局限性进行了彻底的分析。在本文中,我们通过对NTL进行首次全面调查并引入NTLBENCH来弥合这一差距,这是评估NTL性能和鲁棒性在统一框架中的第一个基准。具体来说,我们首先介绍了NTL的任务设置,一般框架和criaia,然后进行NTL AP-aperaches的摘要。此外,我们强调了对各种AT-

arxiv:2502.13593v1 [cs.lg] 2025年2月19日

arxiv:2502.13593v1 [cs.lg] 2025年2月19日PDF文件第1页

arxiv:2502.13593v1 [cs.lg] 2025年2月19日PDF文件第2页

arxiv:2502.13593v1 [cs.lg] 2025年2月19日PDF文件第3页

arxiv:2502.13593v1 [cs.lg] 2025年2月19日PDF文件第4页

arxiv:2502.13593v1 [cs.lg] 2025年2月19日PDF文件第5页

相关文件推荐